自從 ChatGPT 問世以來,「大語言模型」(Large Language Model, LLM)成為了 AI 的同義詞,而各家爭相推出的 LLM 也憑藉著超越人類平均水準的語言能力,讓一般大眾一直好奇:「AI 是不是已經有意識了?」
最近 Forbes 上的一篇報導,"Glimmer Of Evidence That AI Has Innate Self-Introspection And Can Find Meaning Within Itself",提出了一個令人驚訝的研究發現:大型語言模型似乎展現出「自我反省」的能力,儘管它們的先天設計上並沒有包括此功能。
研究人員透過一種稱為「概念注入」(concept injection)的實驗技術,將代表特定概念(例如「全大寫」)的向量「植入」到AI的神經網路中,然後詢問AI是否能感知到這個注入的「思想」。
研究人員宣稱,實驗的結果顯示「 AI 在某些情況下能夠準確地報告其內部狀態」,表示其具有功能性內省意識,但文章的作者同時也提醒讀者要謹慎解讀這些結果,因為這可能是 AI 試圖迎合提問者,甚至是一種「虛構」的陳述,而非真正的自我覺察。
其實過去幾年這一類的研究相當多,我個人對「AI是否具有意識」並沒有偏好的答案,但對於「對文字接龍產生器所產出的內容進行嚴肅的內容分析」這樣的研究方法,實在是沒辦法給予太高的認同。
關於 AI 是不是有意識,我寧願相信嚴肅一點的研究方法,像是這篇 "Consciousness in Artificial Intelligence: Insights from the Science of Consciousness" 裡的工作。雖然是 2023 年發表的,但文章分析整理了幾個主要的「意識理論」,再依據這些理論設計出 14 個可被檢驗的指標,然後對當時的主要 LLM 進行測試。
當前的AI系統是否可能具有意識,是一個科學界關注且公眾日益擔憂的議題。本報告主張並示範一種嚴謹且以實證為基礎的方法來探討AI意識:根據我們最受支持的意識神經科學理論,詳細評估現有的AI系統。我們調查了幾種著名的意識科學理論,包括遞迴處理理論(recurrent processing theory)、全域工作空間理論(global workspace theory)、高階理論(higher-order theories)、預測處理(predictive processing),以及注意力圖式理論(attention schema theory)。
我們從這些理論中推導出意識的「指標特性(indicator properties)」,並以計算機術語闡明,以便我們能夠評估AI系統是否具備這些特性。我們使用這些指標特性來評估幾種近期開發的AI系統,並討論未來的系統可能如何實現它們。我們的分析表明,目前沒有任何AI系統具有意識,但也暗示建構能滿足這些指標的AI系統並不存在明顯的技術障礙。
沒有留言:
張貼留言